home *** CD-ROM | disk | FTP | other *** search
/ Giga Games 1 / Giga Games.iso / net / vir_real / papers / taylor.vsl < prev    next >
Encoding:
Text File  |  1993-06-20  |  24.9 KB  |  449 lines

  1. 91-06/Sarnoff.info
  2. From: herbt@apollo.sarnoff.com (Herbert H Taylor III)
  3. Subject: Virtual Reality, Volume Visualization and Video (LONG) 
  4. Date: Wed, 05 Jun 91 11:27:20 EDT
  5.  
  6.  
  7.  
  8.  
  9.  The recent series of postings on VR/Video following the exchange
  10. between myself and Chris Shaw have been most informative. I would also
  11. like to publicly thank Chris for asking some very tough questions. I
  12. can certainly take a "whipping" without losing my sense of humour -
  13. although I hope we can both avoid the use of the pejorative. It was
  14. unfortunate that the HDTV emphasis of previous posts defocused the
  15. more important topic of VR Architectures. Chris challenged the
  16. applicability of those ideas to VR and while I remain convinced that
  17. they will prove important they seem to represent a small conceptual
  18. detour. Likewise, a strong technical challenge was raised to our
  19. description of several 3D video based scenarios. Much of the technical
  20. criticism which followed was the result of our poor description of our
  21. ideas. Real-time 3D imagery alone will not be sufficient to construct
  22. and manage entirely "simulated" virtual worlds. We will not be able to
  23. look under the Kitchen table for the "Chewing Gum". (Of course if the
  24. CGI modeler doesn't have a "Chewing Gum" model, "it", to borrow a
  25. favorite colloquial expression of Chris', "ain't there either.")
  26. Whether these limitations preclude the use of 3D imagery as a useful
  27. interface component of VR remains a topic of further research...
  28.  
  29.  In our original speculative post of ca. 3/10/91, (responding to our
  30. moderators request for summaries of current research), we mused about
  31. our desire to explore what VR will be like in ten years. We admitted
  32. that the system we were using (aka the Princeton Engine) was not a
  33. general solution to VR processing. I hope, however, that we use
  34. Supercomputers as vehicles to explore otherwise impossible ideas.
  35. Machines such as the UNC PxPL5, the CM2 or the Princeton Engine are
  36. not "practical" single user architectures - at least not yet - but
  37. surely in not too many years we will have desktop massive parallelism
  38. with the potential for real-time interactive VR applications. This
  39. leads naturally to motivating questions: will the "ultimate" VR system
  40. of the year 2000 be more SGI-MIMD like - with a large number of
  41. powerful processors in the rendering pipeline - or, will it be a
  42. hybrid of SIMD and MIMD, as in the PxPL5?  Perhaps VR specific
  43. architectures will emerge. What impact does our choice of VR world
  44. model have on architecture? Is the evolution of VR only going to be in
  45. the direction of increasingly realistic CGI rendering?  Are worlds
  46. derived from sampled data going to become more viable?
  47.  
  48.  What are the applications which motivate future VR architectures?
  49. Certainly, the potential for applications in medicine, architecture,
  50. simulated experience, "gaming" and product design will continue to
  51. provide motivation for developing systems with improved visual realism
  52. and more natural interactions. Likewise, scientific data visualization
  53. offers fertile ground for VR research and future application - where
  54. we have this notion of interacting with and literally "experiencing"
  55. our data. There has been significant independent progress in recent
  56. years in each of the fields of interactive data visualization, VR and
  57. specifically, Volume Visualization (VV), however, it will be the
  58. convergence of all three technologies into a single computing and
  59. interaction framework where the true enabling leap of functionality
  60. will occur. Scientists will be able to simulate and visualize complex
  61. phenomena, in some sense, actually "participate" in their experiments.
  62. This kind of interaction will revolutionize scientific research in
  63. much the same way that the computer itself has.
  64.  
  65.  There are probably those who will question our enthusiasm and observe
  66. that our scientific forebears drew marvelous insight from very simple
  67. physical models of complex structure without the benefit of computers
  68. or graphics. It is said that the structure of benzene came to Kekule
  69. in a dream. Certainly, Watson and Crick were able to visualize amazing
  70. structure without the benefit of complex "tools"... which is exactly
  71. the point. When the visualization systems of the future are as easy to
  72. use as a box of snap together molecular models, as interactive as the
  73. microscope or as "free associative" as a dream - only then will they
  74. realize their full potential. These advances, however, will come at
  75. great computational cost.
  76.  
  77.  Where are the computational boundaries for VR? To address these
  78. issues we must first establish complexity bounds for VR in terms of
  79. computation (rendering, dynamics, constraints, etc) and I/O. The
  80. processing requirements of VR have been studied in terms of system
  81. dynamics and constraint satisfaction by [Pentland90] giving O(n**3)
  82. "calculations" per vertex for the dynamical system. For a 1000 objects
  83. with a 1000 vertices a 100 TFLOP performance is required to achieve
  84. interactivity (Assuming 100 floating point operations per system
  85. "calculation"). That astounding number is still two orders removed
  86. from the NEXT generation of supercomputers. The authors propose a
  87. reduced complexity model - still with computational complexity in the
  88. 10 GFLOP range to satisfy system constraints and 100MFLOP for the
  89. dynamics. A system which implements this approach is described in
  90. [PentE90]. [Witkin90] also discusses the constrained dynamical system
  91. in some detail. Polygon rendering has been discussed in [Ake88] with
  92. floating point requirements in the range of 40MFLOP for 100,000
  93. polygons. Further research needs to be done to reduce world complexity
  94. and to make higher resolution worlds with complex objects more
  95. tractable on near term computers.
  96.  
  97.  Several posters to this group have suggested that VR input processing
  98. requirements are quite modest - at least in terms of the data glove.
  99. We might ask how does the complexity scale as more and higher
  100. "resolution" input devices are introduced?  Devices such as the Eye
  101. tracker [Levoy90] and 3D head tracker [Wang90] would seem to add
  102. significant complexity to VR processing requirements even with
  103. dedicated interface hardware.  Comparatively less research has been
  104. done on the physical "output" side of VR. [Minsky90] describes a
  105. system using the sense of touch. What other input or output devices
  106. can we look forward to and what are the performance specs?
  107.  
  108.   Clearly, the exponential growth of the computational and I/O
  109. requirements of VR will motivate both algorithmic and architectural
  110. solutions. A recent estimate by the US Government projects "terraflop"
  111. commercial Supercomputers before the year 2000 [USG91] with the first
  112. demonstration systems emerging from the DARPA High Performance
  113. Computing Systems (HPCS) initiative in 1992-3. Whether the spectacular
  114. performance of these machines can be fully harnessed for VR remains to
  115. be seen. Perhaps what is really needed is a combination of VR specific
  116. architectures with VR specific algorithms - architectures which are on
  117. the HPCS technology learning curve (i.e. that employ MCM packaging,
  118. superdense ULSI, optical inteconnect, etc) COMBINED with algorithms
  119. which can replace O(n**3) with say O(n log n). A number of research
  120. groups have proposed (and in some cases actually built) "application
  121. specific" or "algorithm specific" visualization computers, including
  122. the well known UNC PxPL5 [Fuchs82], the SUNY CUBE [Kaufman88] and the
  123. Stanford SLAM [Dem86] systems. (We are not sure if a full version of
  124. the later machine was ever built.)  In general, these researchers were
  125. motivated by the desire to explore "future" visualization algorithms.
  126.  
  127.   Our original motivation in developing the Princeton Engine was the
  128. desire to explore "future" video systems. However, we have found that
  129. its applicability is in no way "limited" to video and it can serve as
  130. a useful architecture to study visualization algorithms and future
  131. visualization systmes. We certainly do believe we can accomplish much
  132. of what we described in our previous posts. After all, the system can
  133. turn over 30 (16bit) GIGAOPS, or over 1 GFLOP (for you scientific
  134. types). More important, ALL system I/O is continuous and transparent
  135. to the CPU. A 48bitx28MHZ (=1.4GBPS) digital input bus and a
  136. 64bitx28MHZ (= 1.8GBPS) digital output bus can drive any combination
  137. of analog or digital I/O devices. Transparent, continuous gigabit I/O
  138. should be important to the NEXT generation of VR peripherals: Data
  139. Gloves, eye trackers, you invent it. Finally, while there is no
  140. special system requirement that either the I/O or the application be
  141. "video", a typical application will often COMBINE scientific computing
  142. AND real-time data visualization.
  143.  
  144.  Reat-time Interactive Volume Visualization
  145.  ------------------------------------------
  146.  To calibrate this machine for graphics applications, we are in the
  147. process of implementing a real-time volume rendering system that can
  148. arbitrarily rotate and render 256x256x256 volumes at 30fps. We believe
  149. we can volume render 1Kx1Kx1K at about 8fps using single axis
  150. rotation. This is possible because the Princeton Engine can perform a
  151. "continuous" real-time transpose (512x512x32bitsx30fps) for very
  152. little CPU cost.  The programmer effectively has an array and its
  153. transpose as working data structures. At any line "time" each
  154. processor has a row and colume of the current frame in hand.
  155. Therefore, "scanline" algorithms are relatively straightforward...
  156.  
  157.  A number of recent papers suggest that Volume Visualization (VV) and
  158. Virtual Reality are closely related, convergent applications. The
  159. "edvol" system combines a VPL Data Glove and 3SPACE Polhemus Tracker
  160. to provide direct interaction with volumetric data [Kaufman90]. The
  161. authors do not characterize the size and complexity of either the VR
  162. or the VV but do describe it as "small scale". It often seems as
  163. though the electronic "media" believe that VV is "already" a standard
  164. component of VR. This obvious misconception has occured because volume
  165. visualization demos are usually presented as real-time interactive
  166. simulations, when the visualization actually took CPU hours to
  167. orchestrate. But the "dream" clearly is real-time interactive volume
  168. rendering and visualization.  One of the best demonstrations I have
  169. seen of the potential for a VV fly through was presented by Mark Levoy
  170. (then of UNC) using volume rendered CT. In [Levoy89] the intended use
  171. of a head mounted display interface to the PxPL5 is described while in
  172. [Levoy90] the use of eye tracking hardware is described - in both
  173. cases specifically for VV.  UNC's Steve Pizer showed a video of 8fps
  174. single axis rotation volume rendering on PxPL5 at the San Diego
  175. Workshop on VV. A head display system has also been developed at UNC
  176. to assist radiologists in treatment planning.  Although these examples
  177. may not in all cases qualify as pure "VR" they certainly speak to the
  178. potential for a real-time interactive VR interface to a volume
  179. visualization environment.
  180.  
  181.   Volumetric data sets come in two basic forms: "real" sampled data
  182. (as in CT, MRI, Ultrasound, Optical or Xray Microscopy, etc.)  and
  183. computed or "synthetic" data (weather models, CFD, etc.). In the later
  184. case the volume is usually "simulated" while in the former the "raw"
  185. data is sampled and sometimes preprocessed before the volume is
  186. rendered. For example, before an MRI image is produced the "raw"
  187. sampled data must be Fourier Transformed.  With either approach the
  188. resulting data set is a 3D spatial volume. In the case of synthetic
  189. simulated data there is also a "timestep" - the fluid flows, the
  190. turbine spins, etc. With sampled data there is often no clear notion
  191. of time, the data is entirely static; however, the interaction with
  192. the data can be dynamic and even involve the "introduction" of time. A
  193. traveler passing through a sampled and rendered volume certainly
  194. experiences the passage of time, however, the "world" itself remains
  195. static. By analogy one can imagine walking through a museum (static
  196. sampled "objects") verses walking along the bank of a river (dynamic
  197. simulated "objects"). In our conceptual museum, as we begin to
  198. interact with objects we can simplify the system constraint dynamics
  199. as much as desired, literally "determining" the laws of physics. That
  200. Ming Dynasty vase I knocked over? It never touched the ground. If we
  201. are "in" an MRI or CT museum we might wish to change opacity, point of
  202. view or other parameters which effect our visual perception of the
  203. phenomena we are studying. Of course, the same control of time is
  204. possible in the "synthetic" case, however, only at the risk of
  205. undermining the scientific interpretation of the simulation i.e.
  206. correctly visualizing and understanding the physics is often
  207. fundamental to the experiment.
  208.  
  209.   With the emergence of increasingly real-time instrumention there is
  210. a second form of sampled data to consider: 3D spatial volumes with
  211. time varying data. Imagine a sampled volume of a living organism or
  212. dynamic micro structure which is updated 30 times a second. If we were
  213. "inside" this museum while it was "open" we could watch cells as they
  214. proceed through nuclear envelope breakdown, divide and emerge as two
  215. identical cells. (We are working with this kind of data now.) The
  216. degree to which this form of interaction is a Virtual Reality results
  217. not from our ability to "alter the experiment" on the fly, but from
  218. our ability to control the dynamics of how we "view" the experiment
  219. while it is taking place. We may ultimately be able to turn up the
  220. heat or add some catalyst to a chemical reaction from within the
  221. Virtual experience but that ability neither defines VR nor does the
  222. absense of that ability preclude VR. IMO, it is the VR observers
  223. perceived sense of simulated presence combined with the ability to
  224. control the visual experience which principally defines the
  225. interaction as VR.
  226.  
  227.  Two related projects provide sources of volumetric data which we are
  228. using at Sarnoff and which we feel have VR "prospects": from an
  229. experimental ultrasound instrument and from a differential inferential
  230. contrast (DIC) micrograph which produces a sequence of image slices
  231. through a cell embryo. The DIC volume can be acquired at or near
  232. real-time with the latest instrumentation - hence, a "video volume"
  233. (sorry Chris, it really can be...) In the case of the ultrasound
  234. instrument the Princeton Engine will also perform the front-end signal
  235. processing required to produce a volume from the sampled data.
  236. Presently, a "raw" 3D ultrasound data set cannot be acquired in
  237. real-time, however, the signal processing to produce a data volume
  238. from an unprocessed data set can potentially be accomplished in
  239. real-time, as can the Volume Rendering process. The KEY POINT is that
  240. we are going to see more and more real-time instrumentation which can
  241. produce true sampled data volumes. As the aquisition time of systems
  242. such as MRI, ultrasound, Electron Microscopy and DIC decrease we will
  243. also see greater coupling between the front-end signal processing, the
  244. data visualization and perhaps even the user interaction. At a recent
  245. workshop at Princeton University, "Seeing Into Materials: Imaging
  246. Complex Structures", both optical and EM microscopy systems capable of
  247. real-time 3D acquisition were described... Actually "4D" is used to
  248. refer to a 3D spatial volume "moving" in time. BTW, these scientists
  249. have a strong intuitive feel for the potential of VR - at least what
  250. they call "VR". That is, the ability to interact with an experiment -
  251. either in situ OR as part of post analysis - as in our museum
  252. examples.
  253.  
  254.  Is it fair to ask where in the taxonomy of VR systems we should place
  255. these kinds of applications? True, the worlds are derived from various
  256. real world spectra but the interactions are entirely SIMULATED, one
  257. can change viewing parameters, etc. The exact meaning of virtually
  258. touching "objects" or surfaces in such worlds remains unclear... but
  259. really no more so than in a CGI simulated world where everything is
  260. built from models. In either case the eventual consequence of our
  261. fundamental interactions within a world must be determined by a "law
  262. giver". If I put my data gloved hand directly into the burner of a VR
  263. Kitchen stove what happens?
  264.  
  265.  It should be noted that there are several potential problems with
  266. these methods of data visualization. First, a number of people report
  267. varying degrees of motion sickness when observing through a head
  268. mounted display. That may be acceptable if I am performing a "hammer-
  269. head" maneuver in my Superdecathalon simulator, but probably is not
  270. acceptable if I am inside someones brain. (Informal Poll: How Many of
  271. you have experienced this effect? RSVP and I will tabulate.) A second
  272. potential problem results from "persistance" effects on the human
  273. visual system. We vividly recall in the early days of VLSI CAD
  274. workstations the problem IC draft persons experienced after long hours
  275. staring at color stripes and squares. [Frome83] describes the so
  276. called "McCollough effect", wherein, after looking at color stripes
  277. for only a short time, high contrast B&W stripes suddenly appear to
  278. have color where none is present. To dramatize this effect during her
  279. talk at DAC83, Francine Frome periodically displayed slides with green
  280. and red stripes. About halfway through the talk she displayed a slide
  281. with a striped "BTL" in bright green foreground offset from a bright
  282. red background - before informing the audience that the slide was
  283. totally black and white! It was quite remarkable. These issues and
  284. other "human factor" issues will need to be fully understood before
  285. head mounted displays achieve broad use and certainly before we let
  286. Nintendo sell one to every ten year old...
  287.  
  288.  More VR/Video
  289.  -------------
  290.   In our original post we also speculated that multiple camaras might
  291. be used to develop a "Video" data glove or "whole body" interface to a
  292. virtual world. In particular, we asked how such an interface would
  293. impact the future design of the data glove.  We received a number of
  294. thoughtful comments following this post. It is important to note that
  295. the VR world itself COULD STILL be CGI - with video only providing a
  296. framework for interaction. With support for up to six camaras one
  297. could surround participants either individually or collectively with
  298. video. (Remember we pay no CPU cost to load frames into memory from
  299. each camara, however, we do pay once we start to do something with the
  300. data.) Participants might wear "chroma keyed" gloves (wireless gloves
  301. of a reserved key color) or even body suites. Chroma keying is a well
  302. known technique for creating simple special effects such as the
  303. "weatherman" overlay [Ennes77] [Watk90]. We would NOT use this merely
  304. for special effects, however, but to provide a means of isolating the
  305. hands so we can build a useful model. On the Engine the ammount of
  306. processing for each chroma key is only about 5-10% of the "real-time
  307. budget" at 30fps. A second chroma key is used for the background. This
  308. is similar to Myron Kruegers Videoplace which uses white backing
  309. screens. It differs in that Videoplace produces only silhouettes of
  310. "Artificial Reality" participants as a group and provides a limited
  311. framework for identifying individual participants.  ( Don't get me
  312. wrong - Videoplace is still a lot of Fun! - I recently spent a day at
  313. the Franklin Institute watching kids play in it and was impressed by
  314. the overall effect produced. )
  315.  
  316.  The next major technical step is to be able to exploit this interface
  317. in a useful way. In particular we want to study the effect of multiple
  318. "individual" participants. If two video channels are paired to each
  319. participant with a distinct chroma key can we construct a useful model
  320. and use that to interact with and control the dynamics of the
  321. visualization process. Our present plan will focus on the real-time
  322. recognition of simple hand gestures from each "pair of hands".
  323.  
  324.  The idea of using sign language as some posters have suggested is
  325. very interesting - particularly coupled with a neural net based
  326. recognizer. Recognizing full ASL in "continuous" real-time by any
  327. approach is probably ambitious, however, a useful subset might be
  328. possible. We have used a neural net approach to detect and remove
  329. characteristic AM impulse noise (aka "hair dryer noise") in a TV
  330. receiver [Pearson90].  One network is trained to detect AM impulses on
  331. an image line and a second network is trained to look at the entire
  332. image and determine which of the detected pulses are really "false"
  333. positives. This program runs in continuous real-time on the Princeton
  334. Engine. We also demonstrated real-time BEP training on a simple three
  335. layer MLP (a total of 86 w's and th's). For hand signs, however, a new
  336. network topology would be required - with the input to the network
  337. derived from the subsampled chroma key image segment of the original
  338. image.  However, if my understanding of "conversational" ASL is
  339. correct - and each hand sign is typically an entire word or concept -
  340. then the resulting training set still might be hugh. Also, I believe
  341. that hand motion itself plays a significant role in the interpretation
  342. of signs - not just in the transition from one sign to another - as in
  343. cursive writing. This implies that a robust sign recognition system
  344. would need to compute a motion vector and use that as part of the
  345. training set.  We would appreciate references to current work...
  346. particularly how one detects individual signs when in "continuous"
  347. conversation i.e.  when does one sign end and the next begin?
  348.  
  349.   Lastly, a second video experiment would involve the use of the
  350. chroma key to present to each of three remote participants a composite
  351. image of their two neighbors, to form a virtual conference. While this
  352. interaction is entirely real-time we recognize that there will be a
  353. significant limit to the quality of interaction between subjects. We
  354. are interested in the degree of "total" immersion each person
  355. experiences.  If we also mix the audio does the participant "feel"
  356. like he or she is having a conversation with three people.
  357. Unfortunately, I would imagine that the head mounted displays would
  358. tend to undermine intimacy - "perhaps" we could image warp new faces
  359. on everybody - just kidding Chris - although now that I think about
  360. it...
  361.  
  362.  References
  363.  ----------
  364.  
  365. [Pentland90] "Computational Complexity Verses Virtual Worlds", A
  366.     Pentland, 1990 Symposium on Interactive 3D Graphics. Vol 24,
  367.     No 2, March 1990, ACM SIGGRAPH
  368.  
  369.  ( Based on the quality of papers in the proceedings, this must have
  370. been a great conference! )
  371.  
  372. [Witkin90] "Interactive Dynamics", A Witkin, M Gleicher, W Welch, 
  373.     1990 Symposium on Interactive 3D Graphics. Vol 24, No 2, March
  374.     1990, ACM SIGGRAPH
  375.  
  376. [PentE90] "The ThingWorld Modeling System: Virtual Sculpting by Modal
  377.     Forces" A Pentland, I Essa, M Freidmann, B Horowitz.
  378.     1990 Symposium on Interactive 3D Graphics. Vol 24, No 2, March
  379.     1990, ACM SIGGRAPH
  380.  
  381. [Ack88] "High Performance Polygon Rendering" K Akeley, T Jermoluk,
  382.     Computer Graphics Vol 22, No 4, August 1988. ACM
  383.  
  384. [Levoy90] "Gaze Directed Volume Visualization", M Levoy, W Whitaker.
  385.     1990 Symposium on Interactive 3D Graphics. Vol 24, No 2, March
  386.     1990, ACM SIGGRAPH
  387.  
  388. [Wang90] "A Real-time Optical 3D Tracker For Head Mounted Display
  389.     Systems" J Wang, V Chi, H Fuchs. 1990 Symposium on Interactive
  390.     3D Graphics. Vol 24, No 2, March 1990, ACM SIGGRAPH
  391.  
  392. [Minsky90,vr-66] "Feeling and Seeing: Issues in Force Display" M
  393.     Minsky, O Ming, O Steele, F Brooks, Jr. 1990 Symposium on
  394.     Interactive 3D Graphics. Vol 24, No 2, March 1990, ACM
  395.     SIGGRAPH
  396.  
  397. [USG91] "Grand Challenges: High Performance Computing and
  398.     Communications" A Report by the Committee on Physical,
  399.     Mathematical and Engineering Sciences; Federal Coordinating
  400.     Council for Science, Engineering, and Technology; Office of
  401.     Science and Technology Policy.
  402.  
  403. [Fuchs82] "Developing Pixel-Planes, A Smart Memory Based Raster
  404.     Graphics System", H Fuchs, J Poulton, A Paeth, A Bell. 1982
  405.     Conference on Advanced Research in VLSI.
  406.  
  407. [Kauf88] "Memory and Processing Architecture for 3D Voxel-Based
  408.     Imagery" A Kaufman, R Bakalash, IEEE Computer Graphics and
  409.     Applications, Volume 8. No 11, November 1988, pg 10-23
  410.     reprinted in "Volume Visualization", edited by A Kaufman, IEEE
  411.     Computer Society, 1991.
  412.  
  413. [Dem86] "Scan Line Access Memories for High Speed Image
  414.     Rasterization", S.G. Demetrescu. Phd Dissertation, Stanford
  415.     University. June 1986.
  416.  
  417. [Kauf90] "Direct Interaction with a 3D Volumetric Environment", A
  418.     Kaufman, R Yagel, R Bakalash, 1990 Symposium on Interactive 3D
  419.     Graphics. Vol 24, No 2, March 1990, ACM SIGGRAPH
  420.  
  421.   (We also highly recommend, "Volume Visualization", edited by A
  422. Kaufman, IEEE Computer Society, 1991 which contains a large survey of
  423. relevant publications.)
  424.  
  425. [Levoy89] "Design for a Real-Time High Quality Volume Rendering
  426.     Workstation" Chapel Hill Workshop on Volume Visualization,
  427.     1989, Department of Computer Science, University of North
  428.     Carolina. C. Upson, Editor.
  429.  
  430. [Frome83] "Incorporating the Human Factor in Color CAD Systems", F.S.
  431.     Frome, 20th Design Automation Conference, June 1983, IEEE
  432.     Computer Society. 
  433.  
  434. [Ennes77] "Television Broadcasting: Equipement, Systems and Operating
  435.     Fundamentals", H.W Sams, 1979. pg 319-323
  436.  
  437. [Watk90] "The Art of Digital Video", John Watkinson, Focal Press,
  438.     1990, pg 75-77
  439.  
  440. [Pearson90] "Artificial Neural Networks as TV Signal Processors"
  441.     Clay D. Spence, John C. Pearson, Ronald Sverdlove SPIE
  442.     Proceedings Vol. 1469: Applications of Artificial Neural
  443.     networks, 1991
  444.  
  445.  
  446.  
  447.  
  448.  
  449.